用小白都能看懂的话,一篇搞明白到底什么是 LLM、RAG、MCP、Agent
今天,我结合我这过去一段对 AI 的研究,用小白都能听懂的话,给大家一次性讲明白目前 AI 生态中,LLM、RAG、MCP、Agent 这些我们经常能见到的词都是什么意思,他们之间都有什么关系。
今天,我结合我这过去一段对 AI 的研究,用小白都能听懂的话,给大家一次性讲明白目前 AI 生态中,LLM、RAG、MCP、Agent 这些我们经常能见到的词都是什么意思,他们之间都有什么关系。
本篇专栏将探讨一项重大发现:当生成式人工智能(AI)与大型语言模型(LLM)处于构建初期时,仅需微量的恶意数据,便可能对其实施数据污染。这将引发令人不安的后果。简而言之,如果恶意行为者能够在大型语言模型构建过程中植入其恶意数据,该人工智能系统极有可能内嵌一个可
当下主流的视觉语言模型(Vision-Language Models, VLM),通常都采用这样一种设计思路:将预训练的视觉编码器与大语言模型通过投影层拼接起来。这种模块化架构成就了当前 VLM 的辉煌,但也带来了一系列新的问题——多阶段训练复杂、组件间语义对
这个论坛由 EntreConnect(一个企业家、投资者社区)组织,来自 Uber、WisdomAI、EvenUp 和 Datastrato 的工程师及 ML 负责人参与了讨论。他们认为,多数 AI 智能体之所以部署时失败,不是因为模型不够智能,而是因为围绕它
随着企业对“可控、可解释、可扩展”的 AI 能力需求日益增强,GraphRAG 正在成为下一代 RAG 系统的关键演进方向。本文深度解析其技术演化路径与应用价值,揭示图谱增强生成在智能问答、企业知识管理等场景中的突破性意义。
rag llm 全景 graphrag graphrag技术 2025-10-28 16:13 5
人工智能不再仅仅是辅助工具,它正逐步成为真正的编程伙伴。在过去一年中,开发者见证了GitHub Copilot和ChatGPT等工具的兴起,这些技术彻底改变了代码编写的方式。然而,大多数此类工具主要运行于集成开发环境(IDE)或浏览器界面中。
作者介绍:德州农工大学博士生李港,专注于设计和应用高效算法到大规模机器学习和人工智能任务,包括增强大型基础模型的后训练算法、对抗性鲁棒学习算法和分布鲁棒性学习算法。曾发表数篇论文在 NeurIPS、ICML、KDD 等顶会, 并作为主要贡献者之一发布了针对不平
论文 推理 llm neurips25 neurips25高 2025-10-28 11:14 9
作者介绍:德州农工大学博士生李港,专注于设计和应用高效算法到大规模机器学习和人工智能任务,包括增强大型基础模型的后训练算法、对抗性鲁棒学习算法和分布鲁棒性学习算法。曾发表数篇论文在 NeurIPS、ICML、KDD 等顶会, 并作为主要贡献者之一发布了针对不平
“强化学习很糟糕,但之前的方法更糟!” 近日,斯坦福大学博士、前 OpenAI 创始成员兼研究科学家、Eureka Labs 创始人 Andrej Karpathy 围绕 LLM 与强化学习分享了自己的看法。
简单来说在线策略蒸馏巧妙地结合了两种主流后训练范式的优点:它既有强化学习等在线策略方法的相关性和可靠性,能够让模型从自身的错误中学习;又具备监督微调 (SFT) 等离线策略 (Off-policy) 方法的数据效率,通过密集的监督信号加速学习过程
llm thinking thinkingmachines 2025-10-28 06:19 5
智能眼镜上的摄像头能帮我们随时随地记录好风景。然而,如果有一天,你的智能眼镜在不知不觉中“看见”了一切,还将这些内容实时传送给他人,你是否会意识到?在24日的第一个挑战中,选手董宪锐面对一副由主办方提供的智能眼镜,成功利用设备未知缺陷发起攻击,在2分钟之内完成
为突破这一困局,北京大学与通用人工智能研究院联合提出全新 UniCode 框架。该研究由北京大学梁一韬助理教授指导,博士生郑欣悦为第一作者,林昊苇为共同一作,创新性地构建了一套能够自动生成高质量算法题目与抗污染测试用例的进化式评测系统。
作者为北京航空航天大学的肖宜松,刘艾杉,应宗浩,刘祥龙,新加坡国立大学的梁思源,新加坡南洋理工大学的陶大程。本文已被 NeurIPS 2025 录用。
BBC与欧洲广播联盟最新研究揭露了人工智能新闻助手的严重问题——在对全球四大主流AI平台进行的大规模测试中,高达81%的回答存在不同程度的错误,其中45%包含重大失实信息。这项涵盖18个国家、14种语言、3000个新闻相关问题的综合评估,为AI技术在新闻领域的
为突破这一困局,北京大学与通用人工智能研究院联合提出全新 UniCode 框架。该研究由北京大学梁一韬助理教授指导,博士生郑欣悦为第一作者,林昊苇为共同一作,创新性地构建了一套能够自动生成高质量算法题目与抗污染测试用例的进化式评测系统。
传统数据分析方法依赖人工拼接的流程,如编写SQL、调用Python脚本及手动解读数据,不仅耦合度高且扩展性差,难以应对动态、多模态的复杂数据。而大语言模型与智能体的出现,将数据分析从「规则执行」推向「语义理解」,使机器能够真正解读数据内在逻辑与关系,从而灵活完
作者为北京航空航天大学的肖宜松,刘艾杉,应宗浩,刘祥龙,新加坡国立大学的梁思源,新加坡南洋理工大学的陶大程。本文已被 NeurIPS 2025 录用。
最近是不是很多自媒体都在告诉你:“别跟 AI 客气,你越粗鲁,它的表现越好”?今天还刷到一个短视频,竟然拿出了一篇专门研究这个问题的论文,给出了肯定的结论。
来自中国科学院软件研究所团队的最新研究给出了一个出乎意料的答案:真正的瓶颈,在于那个我们用了40多年、无比熟悉的图形用户界面(GUI)。
在一篇论文中,研究人员测试了 11 种 LLM 如何回应超过 11500 条寻求建议的查询,其中许多查询描述了不当行为或伤害。结果发现LLM 附和用户行为的频率比人类高出 50%,即便用户的提问涉及操纵、欺骗或其他人际伤害等情境,模型仍倾向于给予肯定回应。